道德风险

道德风险1.svg
相较于基准模型,道德风险情形下代理人的努力程度不可证实。假设代理人为风险中性,最优合约本应为固定报酬,但此时代理人必然选择最低的努力程度,导致委托人的利润相较于信息对称时偏低。因此,为了激励代理人选择更高的努力程度需要额外的约束。

一般模型

最优合约选择问题为

max{e,w()} i=1np(xie)B(xiw(xi))s.t. i=1np(xie)u(w(xi))c(e)u¯ eargmaxe^i=1np(xie^)u(w(xi))c(e^)

当努力程度是连续变量时该问题很难分析,因为目标函数关于 e 并不必然是凹的,除非对条件概率函数的形式施加额外假设。因此我们先考虑该模型的简化版本。

二值离散模型

考虑努力程度是离散变量的情形。令 e{eH,eL} ,令 piHp(xieH) 以及 piLp(xieL) ,设 pH 一阶随机占优pL,即

i=1kpiH<i=1kpiL for all k=1,,n1

相当于假设高努力结果的期望效用大于等于低努力结果的期望效用。

进一步假设委托人希望激励代理人选择高努力,此时激励相容约束为

i=1npiHu(w(xi))c(eH)i=1npiLu(w(xi))c(eL)i=1n[piHpiL]u(w(xi))c(eH)c(eL)

最优合约选择问题为

max{e,w()} i=1npiHB(xiw(xi))s.t. i=1npiHu(w(xi))c(eH)u¯ i=1n[piHpiL]u(w(xi))c(eH)c(eL)

Lagrangian 函数为

L=i=1npiHB(xiw(xi))+λ[i=1npiHu(w(xi))c(eH)u¯]+μ[i=1n[piHpiL]u(w(xi))c(eH)+c(eL)]

F.O.C.

Lw(xi)=piHB(xiw(xi))+λpiHu(w(xi))+μ[piHpiL]u(w(xi))=0

整理得

B(xiw(xi))u(w(xi))=λ+μpiHpiLpiH

作为对比,基准模型相应的等式右边仅有 λ,因此第二项体现了道德风险的影响。

假设委托人是风险中性的,则上式退化为

1u(w(xi))=λ+μ(1piLpiH)w(xi)=(u)1[1λ+μ(1piLpiH)]

piL=piH 时,即对与努力程度无关的那些结果 xiw(xi)=w¯
piL>piH 时,即对更可能是低努力的那些结果 xiw(xi)<w¯
piL<piH 时,即对更可能是高努力的那些结果 xiw(xi)>w¯

因此,如果要对更好的结果给予更高的报酬,就要求 piLpiH 关于 xi 是递减的。然而,这个条件并不能从一阶随机占优假设导出。

线性连续模型

当努力程度是连续变量时,对于某些特定的条件概率函数,可以直接使用激励相容约束的一阶条件代替该约束。较为简单的一种满足如下线性条件

p(xie)=epiH+(1e)piL

其中努力程度 e(0,1) 相当于二值离散情形的混合策略。

激励相容约束为

maxei=1n[epiH+(1e)piL]u(w(xi))c(e)

F.O.C.

i=1n[piHpiL]u(w(xi))=c(e)

最优合约选择问题为

max{e,w()} i=1n[epiH+(1e)piL]B(xiw(xi))s.t. i=1n[epiH+(1e)piL]u(w(xi))c(e)u¯ i=1n[piHpiL]u(w(xi))=c(e)

(最优化过程略)
整理得

B(xiw(xi))u(w(xi))=λ+μpiHpiL[epiH+(1e)piL]

如果要对更好的结果给予更高的报酬,就要求 piHpiL[epiH+(1e)piL] 关于 xi 是递增的。